Loading...
机构名称:
¥ 4.0

摘要 随着用于辅助或自动化决策的人工智能 (AI) 的快速发展,其公平性尤其受到关注。为了通过以人为本的人工智能 (HCAI) 设计创建可靠、安全和值得信赖的系统,最近的努力已经为 AI 专家制作了用户界面 (UI),以调查 AI 模型的公平性。在本文中,我们提供了一种设计空间探索,不仅支持数据科学家,也支持领域专家调查 AI 公平性。以贷款申请为例,我们与贷款人员和数据科学家举行了一系列研讨会,以了解他们的需求。我们将这些需求实例化为 FairHIL,这是一个支持人机交互公平性调查的 UI,并描述了如何将此 UI 推广到其他用例。我们通过出声思考用户研究评估了 FairHIL。我们的工作有助于更好地设计以调查 AI 模型的公平性 — — 并更接近负责任的 AI。

arXiv:2206.00474v1 [cs.AI] 2022 年 6 月 1 日

arXiv:2206.00474v1 [cs.AI] 2022 年 6 月 1 日PDF文件第1页

arXiv:2206.00474v1 [cs.AI] 2022 年 6 月 1 日PDF文件第2页

arXiv:2206.00474v1 [cs.AI] 2022 年 6 月 1 日PDF文件第3页

arXiv:2206.00474v1 [cs.AI] 2022 年 6 月 1 日PDF文件第4页

arXiv:2206.00474v1 [cs.AI] 2022 年 6 月 1 日PDF文件第5页

相关文件推荐

2024 年
¥1.0
2024 年
¥7.0
2023 年
¥1.0
2013 年
¥14.0
2024 年
¥4.0
2022 年
¥1.0
2022 年
¥1.0
2022 年
¥2.0
2023 年
¥13.0